iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 26
0
DevOps

30天完成本地部署 kubernetes系列 第 26

異質節點的硬體資源管理(3):ceph osd 與硬碟異質性

  • 分享至 

  • xImage
  •  

在 ceph 群集中,每顆硬碟使用獨立的 osd daemon 進行管理。

不同的硬碟,在硬體的異質性上可表現在:

容量大小不同

預設情形下 ceph 可處理容量不同的硬碟。硬碟容量影響 osd 的 crush 權重,使得容量大的寫選中時機率高,容量小的寫選中時機率低。

讀寫速度不同

在預設的情形下, osd 會有三副本,其中讀取時僅讀主副本,寫入時寫入主副本,並由主副本寫入第二、三副本。
因此讀取速度快的硬碟,將會更適合設定做為主副本 osd。

反過來說,讀取速度慢的硬碟,較不適合做為主副本 osd。
透過指令:

ceph osd primary-affinity osd.<id> 0

其中,osd 的 primary affinity 原本預設為 1,即表示均視為可做為主副本。
將該 osd 的主副本親和性設定為 0 後,即表示不選擇此 osd 做為主副本。

參考

  1. https://docs.ceph.com/docs/master/rados/troubleshooting/troubleshooting-osd/
  2. https://docs.ceph.com/docs/master/rados/operations/crush-map/
  3. https://ceph.com/geen-categorie/difference-between-ceph-osd-reweight-and-ceph-osd-crush-reweight/
  4. https://ceph.com/geen-categorie/ceph-get-the-best-of-your-ssd-with-primary-affinity/

上一篇
異質節點的硬體資源管理(2):ceph 群集節點的硬體運算能力異質性
下一篇
異質節點的硬體資源管理(4):依節點的運算能力進行調度
系列文
30天完成本地部署 kubernetes30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言